IMI-Standpunkt 2025/042 - in: junge Welt (9.7.2025), Beilage "Künstliche Intelligenz"
Krieg, KI und Kontrollverlust
Zum aktuellen Stand militärischer Anwendungen von KI
von: Christoph Marischka | Veröffentlicht am: 15. Juli 2025
Anders als es ein beliebtes Sprichwort behauptet, ist im Krieg natürlich nicht alles erlaubt – gemacht wird es trotzdem, zumindest fast alles. Aktuell gilt das insbesondere für neue Formen des Einsatzes von sog. Künstlicher Intelligenz in der Kriegführung.
So haben die israelischen Streitkräfte (IDF) für ihre Luftangriffe auf Gaza in den ersten Monaten offenbar zehntausende Ziele durch KI-Systeme festgelegt. Eines davon, das „Lavender“ genannt wird, hat offenbar auf der Basis der digitalen Massenüberwachung der Bevölkerung Gazas bis zu 35.000 Identitäten identifiziert, bei denen es sich um mutmaßlich militante Mitglieder der Hamas oder des Islamischen Dschihad handle. Viele davon wurden anschließend quasi per Cut & Paste – mitsamt ihrer Familien – zum Beschuss freigegeben. Die menschliche Kontrolle habe letztlich etwa 20 bis 60 Sekunden in Anspruch genommen, indem eine mit der digitalen Identität verknüpfte Audio-Datei geöffnet wurde, um zu bestätigen, dass es sich dabei (vermutlich) um eine männliche Person handelt.1
Eigentlich schreibt das humanitäre Kriegsvölkerrecht für jeden Angriff, bei dem zivile Opfer zu befürchten sind, eine individuelle Abwägung vor, ob der erwartete militärische Nutzen in einem vertretbaren Verhältnis zum zivilen Schaden steht. Es steht nicht explizit geschrieben, dass diese Abwägung von einem Menschen getroffen und verantwortet werden muss. Dass Abwägung und Verantwortung jedoch an informationstechnische Systeme delegiert werden könnten, ist bislang noch eine absolute Minderheitenposition und in keiner Weise konkretisiert. Israel hat diesbezüglich jetzt Fakten geschaffen – ebenso wie das Schweigen seiner Verbündeten.
Fakten geschaffen werden auch auf alltäglicher Ebene im Ukrainekrieg. Beide Seiten setzen auf unterschiedlichsten Ebenen Drohnen (im Sinne unbemannter Luftfahrzeuge) ein. Gerade die kleineren Modelle haben an der Front mittlerweile der Artillerie den Rang abgelaufen und sollen für bis zu 70% aller Tötungen und Verwundungen verantwortlich sein.2 Da sich die Funkverbindung zwischen Mensch und Maschine gerade im Nahbereich leicht stören lässt, wird hier zunehmend auf „Autonomie“ gesetzt: Kamikazedrohnen identifizieren eigenständig ihre Ziele und greifen diese an. Bereits zuvor waren Drohnen zum Einsatz gekommen, die z.B. innerhalb von Konvois besonders wertvolle Ziele ausmachen können und dann KI-gesteuert die optimale Flugbahn auf deren verwundbarste Stelle einschlagen.
Ein heißes und umfangreich beforschtes Thema war in den vergangenen Jahren auch die Schwarmsteuerung von Drohnen. Sie wurde auch schon in der Bundeswehr erprobt. Im konkreten Fall ging es darum, dass eine große Zahl kleiner Drohnen sich selbst optimal positioniert, um ein „gläsernes Gefechtsfeld“ aufzuspannen. Der französische IT-Dienstleister Atos kombinierte für die Bundeswehr diese Schwarmsteuerung mit einer Software des israelischen Rüstungskonzerns Rafael, die mit ihrer KI „Sensoren und Schützen“ verknüpfen und somit, basierend auf Sichtlinie, Munitionsstatus usw., für jedes Ziel den optimalen Schützen ermitteln und per Helmdisplay instruieren sollte. Schwärme von Drohnen sollen bei der Bundeswehr künftig auch beim Elektronischen Kampf zum Einsatz kommen – vieles spricht dafür, dass es z.B. in der Ukraine bereits soweit ist: Als fliegendes Netz von Störsendern, deren Effektivität ja mit der Distanz rapide abnimmt. Die CEOs und Finanziers von deutschen Drohnen-Startups wie Helsing oder Quantum Systems/Stark träumen bereits von einem „Drohnenwall“, einer Art fliegendes Minenfeld aus zehntausenden Aufklärungs- und Kamikazedrohnen an der NATO-Ostflanke. Dies sei innerhalb eines Jahres realisierbar. Alleine die Produktionskapazitäten, die sie aktuell (zumindest nach eigener Darstellung) mit vier- bis fünfstelligem Output pro Monat aufbauen, lassen keinen Zweifel daran, dass eine individuelle menschliche Steuerung oder nennenswerte Überwachung nicht mehr vorgesehen ist. Über die Risiken eines solchen Ki-gesteuerten Drohnenschwarms an der Grenze zwischen NATO und Russland wird in diesen Kreisen überhaupt nicht nachgedacht.3
Schwer abzuschätzen ist, in welchem Umfang KI bereits in jenem Bereich zum Einsatz kommt, den das Verteidigungsministerium seit 2017 als „Cyber- und Informationsraum“ zusammengefasst und für den es einen eigenen „Organisationsbereich“ – quasi eine eigene Teilstreitkraft – eingerichtet hat. Sowohl bei der Cybersicherheit wie auch im Informationskrieg geht es darum, schädliche Software bzw. Narrative in einer unüberschaubaren Flut von Informationen entweder zu verstecken oder eben ausfindig zu machen. Neben den hierfür zuständigen Gliederungen der Bundeswehr bieten auch in Deutschland mittlerweile zahlreiche Unternehmen hierbei ihre Dienstleistungen an, um etwa mithilfe Künstlicher Neuronaler Netze „orchestrierte Meinungsmanipulation zielgenau auf[zu]klären“ und Webseiten zu identifizieren, „auf denen Verschwörungserzählungen, Propaganda oder Falschnachrichten kultiviert und … in manipulativer Absicht künstlich verstärkt werden“.4 Längst werden unter dem Begriff der „digitalen Souveränität“ auch Konzepte verfolgt, um im Ernstfall nicht nur jegliche Schadsoftware, sondern auch jede unerwünschte Nachricht vom eigenen (europäischen) „Informationsraum“ ausschließen zu können.
Während in Deutschland noch eher zurückhaltend von „psychologischer Kriegführung“ gesprochen wird, geht man mit diesem Bereich in der Startup-Nation Israel offener um. Hier verkaufen Entrepreneure entsprechende Dienstleistung fast schon als ehrenamtliches Engagement oder patriotischen Dienst am Vaterland, bringen z.B. erklärtermaßen KI-generierte Videos von Geiseln in Umlauf oder bieten Chat-Bots für israelische Kinder an, die ihnen den Krieg in Gaza erklären sollen.5
Der Zusammenhang von Krieg und Technologie weist auch im Hinblick auf „Künstliche Intelligenz“ mehrere Dimensionen der Beschleunigung auf. In der Ukraine beispielsweise kommen durch beide Konfliktparteien (und ihren jeweiligen Zulieferern) nahezu täglich neue Modelle unbemannter Systeme zum Einsatz, provozieren neue Formen der Bekämpfung und entsprechende Erfahrungen gehen unmittelbar als Weiterentwicklungen in die Massenproduktion ein. Ständig werden neue Dinge ausprobiert und werden im Erfolgsfall tausendfach reproduziert. Zugleich bedeutet jede Form ethischer Reflexion oder Regulation nur, den Feind zu begünstigen und auf eigene Vorteile im legitimen, existentiellen Kampf zu verzichten. Was machbar ist, wird auch gemacht. Und oft ist dabei oft gar nicht mehr nachvollziehbar, wann welche Schwellen überschritten wurden oder werden. Ein höheres Maß an Autonomie kann beispielsweise durch ein einfaches Softwareupdate durch den Hersteller erfolgen, während eine Kamikazedrohne irgendwo im Depot liegt.
Beschleunigung und Kontrollverlust beschränken sich nicht nur auf die unmittelbaren Konfliktparteien. Gut ein Jahrzehnt wurde etwa in Deutschland darüber gestritten, ob die Bundeswehr mit bewaffnungsfähigen oder gar bewaffneten Drohnen ausgestattet werden sollte. Der Beschluss, in großem Maßstab Kamikazedrohnen für die Truppe anzuschaffen, fiel dann handstreichartig ausgerechnet während der Koalitionsverhandlungen Anfang April 2025. Um welche Drohnen welcher Hersteller es sich handelt, wurde insgesamt zur Geheimsache erklärt. Es ist allerdings relativ klar, dass mit Helsing und Quantum Systems/Stark dabei auch mindestens zwei Anbieter zum Zuge kamen, die mittlerweile über eigene Fabriken in der Ukraine unmittelbar in die dortigen Innovationszyklen eingebunden sind – und sich relativ offen gegen Regulierung und für ein hohes Maß an Autonomie aussprechen. Es ist damit aktuell unklar, ob und wie weit auch die Bundeswehr mittlerweile die Schwelle zur Anschaffung tödlicher autonomer Waffensysteme überschritten hat – um deren Ächtung viele Staaten und NGOs (wie StopKillerRobots) seit Jahren im UN-Rahmen kämpfen. Die parlamentarische wie die außerparlamentarische Opposition stehen vor gewaltigen Herausforderungen – verschärft auch durch einen überschaubaren Aufklärungswillen der deutschen Leitmedien.
Ähnliches gilt für den Bereich der Propaganda und Informationskriegsführung hierzulande. Ganz klar ist, dass u.a. die Geheimdienste durch die neue, verfassungsrechtliche Ausnahme ihrer Finanzierung von der Schuldenbremse massiv gestärkt werden. Anfang Juni kündigte Innenminister Dobrindt an, man müsse „im Kampf gegen hybride Bedrohungen durch Spionage und Sabotage aus dem Ausland stärker auf den Einsatz von Künstlicher Intelligenz setzen“: „Wir müssen in Deutschland technisch, juristisch und organisatorisch aufrüsten“, dafür werde es eine „starke finanzielle Ausstattung für die Sicherheitsbehörden geben“.6 KI braucht aber nicht nur Geld, sondern auch Zugriff auf Daten. Bereits im Koalitionsvertrag der aktuellen Bundesregierung hieß es: „Das Spannungsverhältnis zwischen sicherheitspolitischen Erfordernissen und datenschutzrechtlichen Vorgaben“ müsse „neu austariert werden“. Auch hier ist die Frage, ob parlamentarische Opposition und Zivilgesellschaft hierzulande und international aktuell ausreichend aufgestellt sind, um eine unkontrollierte Durchsetzung von KI im Informationskrieg wie im öffentlichen Diskurs zu verhindern.
Dieser Text erschien zunächst leicht überarbeitet in der Beilage „Künstliche Intelligenz“ zur Tageszeitung junge Welt (Ausgabe vom 9.7.2025).
Anmerkungen/Quellen:
1 https://www.972mag.com/lavender-ai-israeli-army-gaza/
2 https://www.nytimes.com/interactive/2025/03/03/world/europe/ukraine-russia-war-drones-deaths.html
3 https://www.imi-online.de/2025/04/11/beispiel-drohnenwall/
4 https://www.telepolis.de/features/Noch-schreibt-KI-fuer-uns-Texte-bald-wird-sie-Kriege-fuehren-9068071.html?seite=all
5 https://www.imi-online.de/2024/01/15/ki-revolution-gaza/
6 https://www.tagesschau.de/inland/innenpolitik/dobrindt-ki-sabotage-100.html